Pixabay
Ainsi il existerait deux mondes : d’une part, celui que décrivent les artistes, le monde « subjectif », résultant de notre expérience existentielle. D’autre part, le monde que décrit la science, objectif et dépourvu d’émotion, le « réel », nous dit-on.
Un temps spécifique est associé à chacun de ces deux mondes. Irréversible est sa caractéristique en littérature, le contraire est prôné par la plupart des scientifiques du XXe siècle : « … pour nous, physiciens dans l’âme, la distinction entre passé, présent et futur ne garde que la valeur d’une illusion, si tenace soit-elle… » nous dit Albert Einstein dans une lettre datée du 21 mars 1955, un mois avant sa mort.
Cette rupture entre la réflexion scientifique et l’expérience humaine trouve ses fondements dans les trois siècles qui ont suivi la révolution scientifique inaugurée par Newton par sa proposition de description mécaniste de l’Univers.
Celle-ci permet de prédire entièrement le comportement d’un système à n’importe quel instant ultérieur, et ce à partir des seules équations qui régissent les mouvements et les forces qui s’exercent entre les corps étudiés. La seule donnée indispensable est celle des conditions initiales, à savoir les coordonnées – positions – des corps ainsi que leurs vitesses.
Particularité essentielle à notre propos, ces équations de la dynamique n’imposent aucune direction privilégiée à la variable temps t, car celle-ci n’y intervient que par son carré t2. Dit autrement, les deux sens de l’évolution, vers le passé (-t) ou vers le futur (+t) n’ont aucune distinction physique.
A chaque solution de l’équation de Newton, dit autrement, à chaque comportement dynamique possible, on peut en faire correspondre un autre par simple inversion du temps. La remarque d’Einstein parait bien fondée.
Prenons le cas de système « simples », comme par exemple le mouvement de la Terre autour du Soleil, dont les équations peuvent être résolues avec exactitude et qui sont périodiques.
Autre exemple, deux planètes (m1 et m2) qui tournent autour du Soleil. Si nous filmons les mouvements de m1 et m2 (en A) et que nous passions le film à l’envers, nous obtenons les mouvements de m1 et m2 (en B). Mais comment pourrions-nous distinguer les trajectoires réelles si nous les voyions toutes les deux (A et B) à l’écran à la fois ?
Contrairement à notre expérience personnelle, le temps n’a pas de « flèche », selon l’expression de Eddington [1], dans ces systèmes puisqu’ils reviennent toujours aussi près que l’on veut de leur point de départ, cependant il y manque une autre propriété importante : la dissipation. Celle-ci marque la perte irréversible d’une composante du système, par exemple son énergie cinétique sous l’action du frottement.
En effet, même si le soleil se lève chaque jour, le nombre d’événements nouveaux qui s’y produisent, notamment les réactions nucléaires, et sur la Terre, tant de changements abondent, certains nous touchant personnellement, par exemple l’évolution des êtres vivants, la naissance, le vieillissement et la mort. De tels événements peuvent-ils se décrire de manière mécanique ?
L’Univers de Newton est bien réversible, mais est-ce le cas de l’Univers « réel » ?
De fait, rares sont les phénomènes parfaitement réversibles, c’est-à-dire ceux dont le film déroulé à rebours représente un événement réel.
En général au contraire, les processus macroscopiques sont irréversibles. L’archétype étant celui de l’éléphant qui entre dans un magasin de porcelaine (en A, avant son entrée, en B après). On ne voit jamais se produire l’évolution inverse. Autrement dit le passage de l’état B à l’état A. De même qu’on ne voit jamais une tasse de thé se réchauffer spontanément ni le printemps succéder à l’hiver. A-t-on jamais vu un organisme mort ressusciter, continuer à rajeunir et finir par faire le contraire de naître ? Et pourtant les lois de Newton prédisent que ces processus inverses ont tous lieu effectivement.
En conclusion, selon les préceptes de K. Popper devons-nous dire que la théorie de Newton est fausse puisque nous avons trouvé, non pas un, mais plusieurs processus qui mettent en défaut ses prédictions ?
La relativité et la mécanique quantique n’accordent aucune place à l’irréversibilité.
Si en effet la théorie de la relativité ne décrit plus le temps comme un paramètre absolu, car la « durée » d’un événement y dépend de la vitesse de l’observateur. Le concept d’espace-temps a remplacé les entités indépendantes que représentent l’espace et le temps. Pour la relativité, tous les phénomènes sont réversibles. Le concept de flèche du temps n’y est pas admis.
De son côté, en vertu du « principe d’incertitude de Heisenberg », la mécanique quantique stipule que l’on ne peut donner que des descriptions probabilistes des phénomènes. C’est l’équation de Schrödinger. Cette équation différentielle est à la fois déterministe et réversible par rapport au temps : cependant à un moment donné, on ne peut calculer que la probabilité d’un événement spécifié tel que l’émission d’un photon par un atome excité.
Tout ce que l’on peut savoir d’un système réside dans sa fonction d’onde. Nous ne rentrerons pas dans la problématique toujours ouverte du phénomène appelé « violation de CP » (C pour charge et P pour parité) qui entraîne l’existence d’une asymétrie entre le passé et le futur.
« A l’échelle locale, les lois de la physique sont toutes symétriques par rapport au temps, et pourtant l’asymétrie du temps est manifeste à l’échelle macroscopique » telle est l’énigme révélée par R. Penrose [2], de l’université d’Oxford en 1979.
Le paradoxe est le suivant : la thermodynamique classique décrit le comportement des systèmes macroscopiques sans se référer au monde microscopique des molécules et des atomes. Et le monde microscopique est décrit par les équations de la dynamique qui sont réversibles ! Comment réconcilier l’irréversibilité macroscopique et la réversibilité microscopique ?
En fait, seul le deuxième principe (parmi les quatre [3] de la thermodynamique fixe un sens à l’évolution des systèmes. Celui-ci exprime apparemment une tendance irréversible à l’uniformisation, à la suppression de toute différence et par conséquent à la désorganisation. On parle plus couramment du phénomène d’entropie. R. Clausius a formalisé ce deuxième principe d’entropie en 1854. Il la définit comme une fonction d’état c’est-à-dire une fonction dont la valeur ne dépend pas du chemin suivi, mais des paramètres instantanés du système (volume, température, pression, etc.).
Une des interprétations aisées de ce principe peut être illustrée dans le cas particulier des systèmes isolés qui n’échangent pas de chaleur avec le milieu extérieur. L’entropie y est croissante et atteint un maximum à l’équilibre. L’idée d’identifier la croissance d’entropie à la flèche du temps est apparue naturelle. En effet, une fois qu’il a atteint l’état final où l’entropie ne peut plus augmenter, le système se trouve en équilibre thermodynamique. Arrivé à cet équilibre, celui-ci n’évolue plus. Il n’est plus sujet à aucun changement macroscopique et se trouve généralement dans un état de dégradation caractérisé par une valeur uniforme de l’ensemble de ses paramètres thermodynamiques : température, pression, etc. C’est la raison pour laquelle l’entropie, qui est maximale, est interprétée au niveau microscopique comme une mesure de désordre.
En fait, ce n’est que pour les états d’équilibre que l’entropie est véritablement définie. Hors d’équilibre, on sait juste qu’elle croît avec le temps.
La tentation d’extrapoler ce deuxième principe à l’Univers entier en l’assimilant à un système isolé, pour en déduire sa mort thermique fut grande. Mais les systèmes isolés sont des cas particuliers.
La plupart des systèmes réels sont fermés (ils échangent de l’énergie, mais pas de la matière avec l’environnement) ou ouverts dans le cas où ils échangent les deux.
Prenons l’exemple de l’expansion d’un gaz par un piston. Comme ce dernier n’est pas isolé, il faut tenir compte du flux d’entropie dû aux échanges d’énergie avec l’extérieur et non plus seulement de la production d’entropie interne. L’entropie totale ne varie pas si la croissance de l’entropie interne du système est compensée par la diminution de l’entropie de l’environnement. Autrement dit, le système et l’environnement restent en équilibre permanent. On pourrait également envisager le même processus qui serait réversible. Il suffirait pour cela qu’à chaque instant l’écart entre l’extérieur et la pression du gaz reste infiniment petit de façon à conserver l’équilibre. Ce processus se doit de durer indéfiniment pour rester sans cesse en équilibre. Dans la réalité, il a une durée limitée et s’effectue hors d’équilibre.
Ce concept d’entropie totale ne nous permet pas de décrire l’évolution irréversible d’un système fermé ou ouvert, car il faut considérer le système et son environnement.
Faisons un pas de plus.
De la thermodynamique d’équilibre à la thermodynamique hors d’équilibre.
Pendant plus d’un siècle, les thermodynamiciens se sont penchés sur le cas très particulier, mais beaucoup plus simple, de l’équilibre, où il n’y a donc plus d’évolution et où l’entropie reste constante.
Cette entropie totale restant invariable, elle ne renseigne nullement sur l’état thermodynamique du système. Dans ces systèmes ouverts et fermés en équilibre, d’autres potentiels tels les deux énergies « libres » de A. Helmhotz et de G. Gibbs [4] indiquent la position d’équilibre pour des conditions particulières.
La thermodynamique d’équilibre est très utile dans des domaines divers de la physique, de la chimie et de la biochimie, mais elle ne renseigne pas sur les systèmes qui évoluent au cours du temps comme les réactions chimiques ou les systèmes biologiques complexes. La vie elle-même est un processus hors d’équilibre dont le vieillissement manifeste l’irréversibilité.
Développée plus récemment, la thermodynamique hors de l’équilibre étudie les systèmes éloignés de l’équilibre par les contraintes qu’exerce sur eux le milieu qui les entoure.
Pour illustrer notre propos, prenons le célèbre exemple des cellules de convection de Bénard. Celles-ci apparaissent quand on chauffe par le bas une couche de liquide placée dans un champ de pesanteur. Dès que la différence de température dépasse un certain seuil, le liquide se met en mouvement et une structure convective se forme. Si l’on supprime le chauffage, les cellules de convection s’estompent et le liquide retourne à l’état d’équilibre en redevenant homogène. Si l’on entretient au contraire le non-équilibre, les cellules de convection prennent une forme bien précise selon que la partie supérieure du liquide est laissée à l’air libre ou non, de sorte qu’un ordre macroscopique apparait. Ordre macroscopique puisque les paramètres qui les décrivent sont de l’ordre du centimètre et non de l’ordre de la distance entre les molécules. Ces phénomènes irréversibles semblent contredire le deuxième principe de la thermodynamique, puisque l’évolution s’est accompagnée d’un degré d’organisation plus élevé et non par une dégradation de l’état du système.
Comment rendre compte de ce type d’évolution ?
Quelle est la bonne fonction potentielle qui régit ces systèmes ?
Onsager y a apporté sa contribution en montrant dans les années 1930 que les écoulements sont proportionnels aux forces thermodynamiques.
Prigogine, en 1947, démontre par son théorème de « principe de production minimale de l’entropie » que l’évolution tend à un état stationnaire pour lequel la production d’entropie (la vitesse de l’entropie produite à l’intérieur du système) atteint son minimum.
Ainsi, au voisinage de l’équilibre, les systèmes sont stables par rapport aux petites fluctuations ; l’existence d’un potentiel les prémunit contre les fluctuations et le désordre moléculaire.
En revanche, lorsque le système est loin de l’équilibre, les moindres fluctuations (en général de type thermique) peuvent l’entrainer à adopter des comportements drastiquement nouveaux, telle l’émergence d’un ordre macroscopique.
La « branche » thermodynamique qui suit l’évolution du système en fonction de la production minimale d’entropie, devient extrêmement instable et présente une myriade de bifurcations qui amènent le système de manière aléatoire à des états stables où la matière devient ordonnée.
Ce sont les structures auto-organisées que Prigogine qualifie de structures dissipatives. Les cellules de Bénard en sont un exemple.
L’existence de ces structures était tout à fait inattendue. On s’était habitué à l’idée de « mort thermique » de l’Univers.
Aujourd’hui, il est évident que les processus de non-équilibre (qui sont irréversibles) peuvent être des créateurs d’ordre.
A l’évidence, les liens entre la dynamique et les processus irréversibles sont difficiles à élaborer. La mise en évidence de l’irréversibilité à l’échelle microscopique pose encore grand nombre de problèmes mathématiques dont non des moindres celui de déterminer dans quelles conditions un système dynamique est dissipatif. Il faudra également étudier le lien qui relie la violation de CP à la flèche du temps.
Néanmoins, les travaux divers de l’Ecole de Bruxelles et d’autres chercheurs nous aident à comprendre le rôle constructif et fondamental de l’irréversibilité dans moult domaines. Il est impossible de reléguer ses effets au royaume de l’illusoire, puisqu’elle résulte au niveau microscopique des instabilités dynamiques inhérentes aux systèmes complexes.
Ann Defrenne-Parent
Publié chez L'Harmattan : LE MANAGEMENT DE L'INCERTITUDE
[1] Arthur S. Eddington, astrophysicien britannique, in The Nature of the Physical World, propose une flèche du temps avec comme fondement que les résultats du hasard sont les seules choses qui ne peuvent être défaites. C’est une flèche qui pointe vers l’augmentation des éléments aléatoires. L’opposé est également vrai, c’est-à-dire que si les éléments aléatoires se raréfient, la flèche pointe vers le passé.
[2] R. Penrose, in S.W. Hawking et W. Israël, General Relativity: an Einstein Centenary Survey, Cambridge University Press, 1979, p. 582.
[3] Premier principe : conservation de l’énergie (introduction de la fonction énergie interne U) ;
Deuxième principe : principe d’évolution (création d’entropie S) ;
Troisième principe : ou principe de Nernst : l’entropie d’un cristal parfait est nulle à T=0K ;
Quatrième principe : théorie d’Onsager (il existe une relation linéaire entre les courants volumiques et les forces thermodynamiques.
Deuxième principe : principe d’évolution (création d’entropie S) ;
Troisième principe : ou principe de Nernst : l’entropie d’un cristal parfait est nulle à T=0K ;
Quatrième principe : théorie d’Onsager (il existe une relation linéaire entre les courants volumiques et les forces thermodynamiques.
[4] Il existe quatre principaux potentiels thermodynamiques utilisés dans la thermodynamique des réactions chimiques. Ce sont l’énergie interne, l’enthalpie, l’énergie libre de Helmholtz et l’énergie libre de Gibbs. L'énergie interne est l'énergie associée au mouvement des molécules. L'enthalpie est le contenu thermique total du système. Helmholtz Free Energy est le «travail utile» pouvant être obtenu à partir du système. L’énergie libre de Gibbs est le travail réversible maximal pouvant être obtenu à partir d’un système. Tous ces termes décrivent le comportement d'un système particulier. La principale différence entre l’énergie libre de Gibbs et de Helmholtz est que L’énergie libre de Gibbs est définie sous pression constante tandis que l’énergie libre de Helmholtz est définie sous volume constant.